Міністерство освіти та науки України
Національний університет “Львівська політехніка”
Кафедра програмного забезпечення
Курсова робота
з курсу “Методи та засоби комп’ютерних інформаційних технологій”
ЛЬВІВ – 2003
Зміст
Постановка задачі 3
Теоретичні відомості до завдання № 1 4
Розв’язання завдання № 1 5
Теоретичні відомості до завдання № 2 6
Розв’язання завдання № 2 7
Теоретичні відомості до завдання № 3 9
Розв’язання завдання № 3 10
Текст програми 12
Висновок 14
(Варіант № 5)
Постановка задачі
Завдання № 1
Фізична система може знаходитись в одному з чотирьох станів. Стани системи задані через ймовірності наступним чином:
Р1 = 0,25; Р2 = 0,25; Р3 = 0,3; Р4 = 0,2.
Визначити ентропію такої системи. Чому рівна ентропія такої системи, якщо ймовірності станів будуть рівними?
Завдання № 2
Скласти програму для визначення еквівалентного опору та напругу Ucd приведеної схеми.
Дано:
U = 100 B; R1 = 80 Ом; R2 = 300 Ом; R3 = 160 Ом; R4 = 200 Ом; R5 = 20 Ом; R6 = 30 Ом.
Дослідити залежність чутливості Ucd від R1, R2, R3. Побудувати залежності ΔUcd від ΔR1, ΔR2, ΔR3.
Завдання № 3
Написати програму побудови п’ятизначного двійкового коду на всі поєднання і вибору з них всіх комбінацій, які взаємно виправляють одиничні помилки. Вивести їх на друк.
Теоретичні відомості до завдання № 1
Загальне число повідомлень, що не повторяються, і яке може бути складене з алфавіта m шляхом комбінування по n символів в повідомленні:
N = mn (1)
Невизначеність, що припадає на символ початкового алфавіта, складеного із рівноймовірних і незалежних символів:
H = log m (2)
Основа логарифму впливає лише на зручність обчислень. У випадку оцінки ентропії:
в війкових одиницях H = log2m біт/символ;
в десяткових одиницях H = lgm діт/символ, де log2m = 3.32lgm, 1 біт ≈ 0.3 діт;
в натуральних одиницях H = lnm нат/символ, де log2m = 1.443lnm, 1 біт = 0.693 нат.
Кількість інформації можна зобразити як добуток загального числа повідомлень k і середньої ентропії одного повідомлення:
I = kH біт (3)
Для випадків рівноймовірних і навзаємнезалежних символів вихідного алфавіту кількість інформації в k повідомленнях алфавіту m :
I = klog2m біт (4)
Для нерівно ймовірних алфавітів ентропія на символ алфавіту
біт/символ, (5)
а кількість інформації в повідомленні, складеному з k нерівно ймовірних символів:
біт. (6)
Кількість інформації визначається виключно характеристиками вихідного алфавіту. Об’єм – характеристика вторинного алфавіту. Об’єм інформації
Q = klcp, (7)
де lcp – середня довжина кодових слів вторинного алфавіту. Для рівномірних кодів (всі комбінації коду містять одинакову кількість розрядів)
Q = kn, (8)
де – довжина коду. Таким чином об’єм рівний кількості інформації, якщо lcp = H, тобто у випадку максимального інформаційного навантаження на символ повідомлення.
В загальному випадку ентропія – це кількість інформації на одиин стан системи. Якщо ентропія мала, то невизначеність відсутня.
Основні властивості ентропії:
Ентропія є неперервною і додатною функцією своїх аргументів (H>0).
Ентропія приймає мінімальне значення у двох випадках:
Якщо повідомлення формується за допомогою однієї ознаки, ймовірність появи якої рівне одиниці.
Якщо ймовірність i-ї ознаки приблизно рівна нулю.
Ентропія досягає максимуму, коли всі випадки рівноможливі.
Ентропія повідомлення, що складається з окремих повідомлень дорівнює сумі ентропій повідомлень [H(A,B) = H(A) +H(B)].
Розв’язання завдання № 1
Умову задачі можна зобразити у вигляді таблиці:
Хі
Х1
Х2
Х3
Х4
Рі
0,25
0,25
0,3
0,2
а) Визначимо ентропію такої системи:
.
H = - (0,25log20,25 + 0,25log20,25 + 0,3log20,3 + 0,2log20,2) ≈ 1 + 0,521090 + 0,464386 ≈ ≈ 1,985476 біт/стан.
б) За умови рівно ймовірних станів ( Р1 =Р2 =Р3 = Р4 = 0,25) ентропія системи буде найбільшою і становитиме:
= 2 біт/стан.
Теоретичні відомості до завдання № 2
Резистор - пасивний лінійний елемент, що володіє властивістю електричного опору. Струм і напруга електричного опору зв’язані законом Ома:
U = ...